
性能提升84%-166%!L-Zero仅靠强化学习解锁大模型探索世界的能力 | 已开源
性能提升84%-166%!L-Zero仅靠强化学习解锁大模型探索世界的能力 | 已开源大模型可以不再依赖人类调教,真正“自学成才”啦?新研究仅通过RLVR(可验证奖励的强化学习),成功让模型自主进化出通用的探索、验证与记忆能力,让模型学会“自学”!
大模型可以不再依赖人类调教,真正“自学成才”啦?新研究仅通过RLVR(可验证奖励的强化学习),成功让模型自主进化出通用的探索、验证与记忆能力,让模型学会“自学”!
在传统工具主导的设计流程中,从 Figma 或 Sketch 起稿,到开发团队手工编码,哪怕是一个简单的网页原型,通常也要经过多轮反复沟通与来回修改,整个流程周期以“周”为单位计算。而 Readdy.ai 的出现,正推动这个流程进入以“秒”计时的 AI 原生时代。
在经过深度思考后,我有了一个大胆的猜想:我们一直在用错误的框架理解它,大家都把它当作"更好的编程工具",但我越用越觉得,这根本不是一个编程工具,而是一个披着终端外衣的通用 AI agent。正好周末看了Anthropic 产品负责人 Michael Gerstenhaber 的最新一期访谈,
最近,Kimi Researcher(深度研究)开启内测。根据官方介绍,其定位并非一个简单的“搜索工具”,而是一个能够生成带引用来源的深度研究报告的AI Agent。
这是我关于「AI Native 系列」的第二篇文章,主题是:行动闭环。在上一篇里,我讲了什么样的产品才算得上真正的 AI Native,分享了我对 MCP 协议、AI 架构原生性和任务闭环的理解。
2025年已成为名副其实的Agent元年。 不论是Operator、Manus、Genspark等爆款Agent的相继出现,还是各大厂商陆续发布MCP协议支持,种种迹象都在印证着AI Agent正经历从“玩具”到“工具”的关键转折。
LLM 智能体(LLM Agent)正从 “纸上谈兵” 的文本生成器,进化为能自主决策、执行复杂任务的 “行动派”。它们可以使用工具、实时与环境互动,向着通用人工智能(AGI)大步迈进。然而,这份 “自主权” 也带来了新的问题:智能体在自主交互中,是否安全?
当下的AI Agent领域,正上演着一幕“奇特”的景象,一方面,是关于Agent能力极限的狂热探讨;但另一方面,是当这些光鲜的Agent从实验室走向真实生产环境时的普遍“失速”与“沉寂”。
刚刚谷歌推出了 Gemini CLI,一个开源的 AI Agent,把 Gemini 的能力直接带到你的终端里。可以把它看作是谷歌版的 Claude Code。最香的是,这玩意儿开源、免费用,背后是带百万上下文的最强 Gemini 模型。
MyShell 自从进入 ShellAgent 的框架阶段,由于深度融合了 ComfyUI 生态,图像视频流的 Agent 迎来了井喷式的爆发。上个月据说上新了 150+个,竞争确实有点激烈了。但其实图像视频流的能力并不代表 ShellAgent 所能做的全部可能性,仍然有大量值得探索的场景等待创作者去尝试。